De repente, la inteligencia artificial (IA) se volvió un enemigo. Que es mala, que hay que frenarla, que es necesario “domarla” antes de que acabe con la humanidad... Son muchas las cosas que se dicen sobre una tecnología que hasta hace poco -creíamos, erróneamente- era lejana y ajena. De un tiempo a esta parte empezó a aparecer visiblemente en nuestra vida y las alarmas del mundo se encendieron. Pero, ¿por qué es tan cuestionada? Mucho se habla pero poco se aclara. En una reciente carta -firmada ya por más de 2.000 figuras, entre ellas Elon Musk- se pidió detener por seis meses las investigaciones de todas las IA superiores al chat GPT 4.En paralelo, surgió el debate sobre los alcances de estas tecnologías, “impredecibles” y hasta “peligrosas” para la humanidad.
¿Qué hay de cierto en los posibles peligros que se presupone? Sobre esas y otras cuestiones más respondió Juan Gustavo Corvalán, director del Laboratorio de Innovación e Inteligencia Artificial de la Universidad de Buenos Aires. (Ialab-UBA). En diálogo con LA GACETA, el experto arrojó luz sobre algunos puntos desconocidos en torno a la polémica IA.
- ¿Por qué la inteligencia artificial está hoy en el ojo de la tormenta?
- El tema del apocalipsis y la IA ahora es una fiebre, pero no es un nuevo; diría que incluso hace ya 10 años se habla de esto. Se debe a tres cuestiones. En primer lugar, es la única tecnología que apunta a lo cognitivo. Como eso es la esencia de nuestros trabajos, preocupa: si una máquina puede hacer lo mismo que nuestro cerebro, es obvio que va a ponernos en riesgo. Siempre las tecnologías reemplazan trabajos, pero esta en particular representa una gran amenaza para los trabajadores. La segunda cuestión es que hoy la IA está presente en todo; no es sólo el chat GPT. Todo lo que tenés en tu celular, en tu computadora y en internet es IA. Hace cinco años no era así. Estamos lidiando, trabajando e interactuando con ella en todo. Y eso nos lleva al tercer punto: al estar en todos lados, tiene la ventaja de que se puede volver eficiente casi en cualquier tarea. Ese es el lado luminoso, un potencial beneficio para los países y las empresas que están invirtiendo en ella. Pero también tiene un lado oscuro, que viene en capas.
- Eso es lo que tanto preocupa de la IA. ¿Cuál es ese lado oscuro?
Lo resumo en dos grandes capas de desafíos, riesgos o daños: una es la que ya está. No hay que pensar en “Terminator” ni en la carta abierta. Hoy la IA genera un montón de daños a las personas, vinculados a fake news, a sobreinformación, a bots que reproducen discursos de odio, a vulneraciones salvajes a la privacidad y a los derechos... Se utiliza para ciberataques, para hackear, para pishing y para todo lo que te imagines. La tecnología con su lado oscuro se volvió omnipresente. Así como está en todos lados para hacernos un bien, lo está para hacernos un mal; este es el desafío que tenemos que enfrentar. Hay otra capa aún más sofisticada, más filosófica, que se está acelerando. Antes se decía que iba a pasar en 100 años, y ahora se piensa que pronto sucederá: que las máquinas, que todavía no lo hacen, logren reproducir y aumentar la capacidad de un cerebro humano. En ese escenario, la IA podría generarse a sí misma y no depender de un humano que la entrene. Y no estamos tan lejos de eso; de ahí viene el planteo de los expertos: si esta IA que tenemos, que no es humana y no piensa como uno, puede simular cosas y hacerlas mejor, imaginate todo lo que nos podría traer otra superior, e imaginate hasta qué punto se nos podría ir de las manos, si esta ya se nos fue...
- Sobre esto, un grupo de expertos dijo, en otra carta al New York Times, que es probable que algún día la IA pueda controlarnos y hacernos hacer cosas en contra nuestra.
-Hagamos una analogía con un auto. Es como que yo te diga “mirá, me robaron el auto”, “si vas a 200 km/h en el auto vas a matar a alguien” o “si lo tirás al río, contamina”. Si empezamos a hablar del auto, empezamos a ver que está lleno de problemas. Lo que pasa es que se mete todo junto: desde alguien a quien se le pinchó una rueda, hasta alguien que fabrica autos. Es imposible razonar este fenómeno (de la IA) porque se mezcla el caso de una persona que se suicida, con 2.000 expertos que dicen que vamos a vivir Terminator y con otros que dicen que la IA nos va a reemplazar. Y todo esto representa un problema para la comunidad, porque se mezcla todo y no se analiza el fenómeno desde los diferentes escenarios.
- Pero el planteo no es tan irreal. Hace unos días se viralizó la noticia de que un hombre en Bélgica se suicidó después de hablar con el chat GPT sobre el cambio climático...
- Ese es un problema que ya existe. Podés verlo en un video de YouTube o en un streamer que podría incitar al suicidio. Lo que hace la IA es tomar la mayoría de la información existente, en este caso fue vinculada al cambio climático, y reproducirla, pero no puede hacer una valoración de si te vas a poner mal o no con eso. Con esto quiero decir que la IA no introduce algo novedoso, porque internet ya está lleno de este tipo de riesgos... La IA no tiene la culpa.
- Volviendo a estos escenarios apocalípticos que se proponen. ¿El peligro de las IA está en que, de aprender, podrían tomar decisiones por nosotros? Así como sucede en la serie “The 100”, en la que una IA decide acabar con la humanidad.
- Esto tiene que ver con el tema filosófico y más existencial, y es difícil tener una respuesta. Cuando estas tecnologías empiezan a crecer y te llevan a lugares insospechados, uno hace un análisis de lo que vio hasta ahora, en función de lo que conozco y de los proyectos en los que he participado. La IA no tiene valores subyacentes: vos, a la hora de juzgar cosas, no sólo tenés en juego la información pura y dura, sino tu valoración, tu contexto, tu historia, tus capacidades... Los humanos somos emocionales; no agarramos información de Wikipedia y la procesamos. Cuando yo hago un juicio de valor, en mí confluyen un montón de aspectos que son emocionales. Entonces, si una máquina tiene que decidir qué hacer con la humanidad, es obvio que no va a opinar como una persona, ni va a analizar muchas variables. Mientras la IA no tenga esa capacidad, ¿cómo vamos a dejar a la IA tomar esa clase de decisiones? Por eso es que cuando se dice que la IA es un CEO yo digo que es un oxímoron, un contrasentido. Es como si dejara a una calculadora tomar decisiones en mi vida. La IA busca lo perfecto; nosotros no somos perfectos y no podemos serlo. Por eso no tendría sentido poner a la IA a decidir cosas importantes para la humanidad. No nos va a entender.
- Entonces, ¿puede ser que se estén magnificando los miedos y sean infundados? ¿O tenemos razones para preocuparnos así por la IA?
- Hay razones concretas y fundadas para tener la suficiente preocupación, no temor; para tratar de ocuparnos lo antes posible de pensar qué queremos hacer con una tecnología tan completa. Y ese es un debate que hay que dar urgente, y es un debate que tienen que llevar adelante los humanos; debe juzgarse entre personas. Me parece que estas máquinas, al venir con un discurso de eficiencia y de mejora, vienen a decirnos que en ciertos temas ellas lo van a hacer mejor que nosotros. La IA nos vende eficiencia, objetividad, rapidez... pero no pueden ser esas las únicas variables. Hay un montón de decisiones que tienen que ver con valores, con principios, y eso lo va a tener que elegir el humano.
- Siempre hablamos de los riesgos y de lo negativo, pero ¿qué beneficios tiene la IA en el mundo?
- Son casi infinitos los beneficios, en cualquier rubro humano. Lo que pasa con la IA es paradojal, algo similar a lo que pasó con la electricidad. Da muchísimo miedo, pero a su vez es tan beneficiosa que no la podés dejar; la tenés que usar. Sirve para la salud, para la educación, para atrapar delincuentes... La IA es genial como beneficio, pero tenemos que saber que así como tiene geniales beneficios, los perjuicios son iguales. Y como los beneficios son ultraimportantes, los perjuicios se espejan.
Límites de la IA: ¿Es cierto que no sabemos hasta dónde puede llegar esta tecnología?
Esta es la pregunta del millón. Mucha de la polémica alrededor de la Inteligencia Artificial tiene que ver con el desconocimiento que la humanidad tiene sobre los posibles usos y peligros de esta tecnología. ¿Pero es cierto que no tenemos idea de qué puede hacer la IA? El especialista Juan Gustavo Corvalán le responde a LA GACETA: “decir que no conocemos los límites de la IA es falso. Hay sólo un cierto tipo, con cierta envergadura de la que no se conocen los límites. Y ese es un problema sistémico; es puntualmente el límite del aprendizaje profundo, que es un subtipo de IA que si se le aplica una cierta tecnología de aprendizaje no supervisado podría generar algo que se nos vaya de las manos. Es algo muy específico, pero de casi todo el resto sí tenemos conocimiento”.
Regulaciones: ¿Hacen falta medidas para controlar el desarrollo y uso de la IA?
“La respuesta es sí”, dice Juan Gustavo Corvalán. “Pero no toda ni cualquier regulación. Es una tecnología muy difícil de regular; y esto es una conclusión, no una opinión”, indica. Según comenta el experto, la regulación más profusa que existe, y que no está vigente todavía, es del Parlamento Europeo, “que propone regular la IA dividiéndola en cuatro grupos: la prohibida, la de alto riesgo, la de riesgo moderado y la de bajo riesgo. Ese es el cuerpo normativo que están analizando muchos países, a excepción de Estados Unidos e Inglaterra, que proponen una regulación más específica”. En nuestro subcontinente, la cuestión es diferente: “sí, existen ciertos marcos normativos, pero no están vigentes en nuestra región. Hay proyectos de ley, por ejemplo en la Argentina, para reformar la ley de datos, también... pero hay una discusión: ¿cómo vas a regular una tecnología que en meses cambia? El desafío es ver qué principios podés aplicar y fijarte qué tipo de IA y en qué actividad. No podés hacer la misma regulación para un algoritmo que podría dictar una sentencia en un juicio y para uno que podría recomendarte una cartera. Es como querer regular por igual a aviones y a bicicletas. Eso es utópico y contraintuitivo”.
Juan Gustavo Corvalán
Es doctor en Ciencias Jurídicas y Máster en Inteligencia Artificial (IA). Co-creó Prometea, el primer sistema de IA predictivo con aplicación en la justicia de Hispanoamérica. Desde ese momento, se desempeña como Director del Laboratorio de Innovación e Inteligencia Artificial (Ialab) de la Universidad Nacional de Buenos Aires (UBA). Es autor y coautor de ocho libros, cuatro vinculados a la inteligencia artificial; se desempeña como director académico del Posgrado en IA y Derecho de la Facultad de Derecho de la UBA. También dirige el Programa de Formación Multidisciplinaria en Datos, Programación e Inteligencia Artificial del Ialab.